本文介绍了一种在线改进的方法,用于考虑可遍历植物的机器人导航的场景识别模型,即机器人在移动时可以将其推开的柔性植物零件。在考虑可穿越的植物到路径上的场景识别系统中,错误分类可能会导致机器人由于被识别为障碍的可穿越的植物而被卡住。然而,在任何估计方法中,错误分类都是不可避免的。在这项工作中,我们提出了一个框架,该框架可以在机器人操作期间即时精制语义分割模型。我们引入了一些基于在线模型完善的重量印迹而无需微调的镜头细分。通过观察人与植物部位的相互作用来收集培训数据。我们提出了新颖的健壮权重,以减轻相互作用产生的面膜中包含的噪声的影响。通过使用现实世界数据进行实验评估了所提出的方法,并显示出胜过普通的权重,并通过模型蒸馏提供竞争性结果,同时需要较少的计算成本。
translated by 谷歌翻译
本文介绍了一种估计植物部件的覆盖路径的可推动性并通过它们用于在富含植物环境中运行的移动机器人的植物部件的迁移性。传统的移动机器人依赖于场景识别方法,其仅考虑环境的几何信息。因此,这些方法不能在柔性植物覆盖时识别出可遍历的路径。在本文中,我们提出了一种基于图像的场景识别的新框架,以实现这种富有的植物环境中的导航。我们的识别模型利用用于通用对象分类的语义分割分支和用于估计像素 - 方向遍历的遍历性估计分支。使用无监督域适配方法训练语义分割分支,并且遍历估计分支的训练,其中在数据获取阶段期间从机器人的遍历经验中产生的标签图像训练,被卷曲的拖拉性掩码。因此,整个模型的培训程序免于手动注释。在我们的实验中,我们表明,所提出的识别框架能够更准确地将可遍历的植物与具有遍历植物和不可遍历的工厂类的传统语义分段进行区分,以及现有的基于图像的可移动性估计方法。我们还进行了一个真实的实验,并确认了具有所提出的识别方法的机器人在富有植物的环境中成功导航。
translated by 谷歌翻译